home *** CD-ROM | disk | FTP | other *** search
/ Internet Surfer 2.0 / Internet Surfer 2.0 (Wayzata Technology) (1996).iso / pc / text / mac / faqs.207 < prev    next >
Text File  |  1996-02-12  |  29KB  |  595 lines

  1. Frequently Asked Questions (FAQS);faqs.207
  2.  
  3.  
  4.  
  5. The editorial in the January 1992 issue of Optical Engineering (v. 31
  6. no. 1) details how Playboy has finally caught on to the fact that
  7. their copyright on Lenna Sjooblom's photo is being widely infringed.
  8. It sounds as if you will have to get permission from Playboy to
  9. publish it in the future.
  10.  
  11.  
  12. Note on the CCITT test images, by Robert Estes <estes@eecs.ucdavis.edu>:
  13.  
  14. The ccitt files are in ftp.ipl.rpi.edu:/image-archive/bitmap/ccitt.
  15. They are named ccitt-n.ras.Z where n goes from 1 to 8.  Each file has
  16. an accompanying doc file called ccitt-n.ras.doc which describes the image
  17. file. Here's the doc file for ccitt-1.ras:
  18.  
  19. Name ccitt-1.ras
  20. Size 1728 x 2376 x 1
  21. Type 1 bit standard format sun rasterfile
  22. Keywords binary standard image 1 bit fax
  23. Description
  24. One of eight images from the standard binary CCITT test image set.
  25.  
  26. This set is commonly used to compare binary image compression
  27. techniques. The images are are 1728x2376 pixels.
  28.  
  29. ------------------------------------------------------------------------------
  30.  
  31. Subject: [56] I am looking for a message digest algorithm
  32.  
  33.  
  34. Look on the ftp site rsa.com, in directory /pub. MD4 and MD5 are there.
  35. This question would be more appropriate on sci.crypt.
  36.  
  37.  
  38.  
  39.           End of part 1 of the comp.compression faq.
  40. Xref: bloom-picayune.mit.edu comp.compression:4949 news.answers:3737
  41. Path: bloom-picayune.mit.edu!snorkelwacker.mit.edu!news.media.mit.edu!micro-heart-of-gold.mit.edu!wupost!darwin.sura.net!paladin.american.edu!news.univie.ac.at!hp4at!mcsun!corton!chorus!chorus.fr
  42. From: jloup@chorus.fr (Jean-loup Gailly)
  43. Newsgroups: comp.compression,news.answers
  44. Subject: comp.compression Frequently Asked Questions (part 2/2)
  45. Summary: *** READ THIS BEFORE POSTING ***
  46. Keywords: data compression, FAQ
  47. Message-ID: <compr2_29oct92@chorus.fr>
  48. Date: 30 Oct 92 13:11:19 GMT
  49. Expires: 10 Dec 92 16:17:20 GMT
  50. References: <compr1_29oct92@chorus.fr>
  51. Sender: news@chorus.chorus.fr
  52. Reply-To: jloup@chorus.fr
  53. Followup-To: comp.compression
  54. Lines: 800
  55. Approved: news-answers-request@MIT.Edu
  56. Supersedes: <compr2_2oct92@chorus.fr>
  57.  
  58. Archive-name: compression-faq/part2
  59. Last-modified: Oct 2nd, 1992
  60.  
  61. This file is part 2 of a set of Frequently Asked Questions for the
  62. groups comp.compression and comp.compression.research.
  63.  
  64. If you don't want to see this FAQ regularly, please add the subject
  65. line to your kill file. If you have corrections or suggestions for
  66. this FAQ, send them to Jean-loup Gailly <jloup@chorus.fr>.  Thank you.
  67.  
  68. Contents
  69. ========
  70.  
  71. (Long) introductions to data compression techniques
  72.  
  73. [70] Introduction to data compression (long)
  74.        Huffman and Related Compression Techniques
  75.        Arithmetic Coding
  76.        Substitutional Compressors
  77.           The LZ78 family of compressors
  78.           The LZ77 family of compressors
  79.  
  80. [71] Introduction to MPEG (long)
  81.        What is MPEG?
  82.        Does it have anything to do with JPEG?
  83.        Then what's JBIG and MHEG?
  84.        What has MPEG accomplished?
  85.        So how does MPEG I work?
  86.        What about the audio compression?
  87.        So how much does it compress?
  88.        What's phase II?
  89.        When will all this be finished?
  90.        How do I join MPEG?
  91.        How do I get the documents, like the MPEG I draft?
  92.  
  93. [72] What is wavelet theory?
  94. [73] What is the theoretical compression limit?
  95. [74] Introduction to JBIG
  96.  
  97. [99] Acknowledgments
  98.  
  99. Search for "Subject: [#]" to get to question number # quickly. Some news
  100. readers can also take advantage of the message digest format used here.
  101.  
  102. ------------------------------------------------------------------------------
  103.  
  104. Subject: [70] Introduction to data compression (long)
  105.  
  106.  
  107. Written by Peter Gutmann <pgut1@cs.aukuni.ac.nz>.
  108.  
  109.  Huffman and Related Compression Techniques
  110.  ------------------------------------------
  111.  
  112.   *Huffman compression* is a statistical data compression technique which
  113. gives a reduction in the average code length used to represent the symbols of
  114. a alphabet.  The Huffman code is an example of a code which is optimal in the
  115. case where all symbols probabilities are integral powers of 1/2.  A Huffman
  116. code can be built in the following manner:
  117.  
  118.   (1) Rank all symbols in order of probability of occurrence.
  119.  
  120.   (2) Successively combine the two symbols of the lowest probability to form
  121.       a new composite symbol; eventually we will build a binary tree where
  122.       each node is the probability of all nodes beneath it.
  123.  
  124.   (3) Trace a path to each leaf, noticing the direction at each node.
  125.  
  126.   For a given frequency distribution, there are many possible Huffman codes,
  127. but the total compressed length will be the same. It is possible to
  128. define a 'canonical' Huffman tree, that is, pick one of these alternative
  129. trees. Such a canonical tree can then be represented very compactly, by
  130. transmitting only the bit length of each code. This technique is used
  131. in most archivers (pkzip, lha, zoo, arj, ...).
  132.  
  133.  
  134.   A technique related to Huffman coding is *Shannon-Fano coding*, which was
  135. suggested by Shannon and Weaver in 1949 and modified by Fano in 1961.  It
  136. works as follows:
  137.  
  138.   (1) Divide the set of symbols into two equal or almost equal subsets
  139.       based on the probability of occurrence of characters in each
  140.       subset.  The first subset is assigned a binary zero, the second
  141.       a binary one.
  142.  
  143.   (2) Repeat step (1) until all subsets have a single element.
  144.  
  145. The algorithm used to create the Huffman codes is bottom-up, and the
  146. one for the Shannon-Fano codes is top-down. Huffman encoding always
  147. generates optimal codes, Shannon-Fano sometimes uses a few more bits.
  148.  
  149.  
  150.  Arithmetic Coding
  151.  -----------------
  152.  
  153.   It would appear that Huffman or Shannon-Fano coding is the perfect
  154. means of compressing data.  However, this is *not* the case.  As
  155. mentioned above, these coding methods are optimal when and only when
  156. the symbol probabilities are integral powers of 1/2, which is usually
  157. not the case.
  158.  
  159.   The technique of *arithmetic coding* does not have this restriction:
  160. It achieves the same effect as treating the message as one single unit
  161. (a technique which would, for Huffman coding, require enumeration of
  162. every single possible message), and thus attains the theoretical
  163. entropy bound to compression efficiency for any source.
  164.  
  165.   Arithmetic coding works by representing a number by an interval of real
  166. numbers between 0 and 1.  As the message becomes longer, the interval needed
  167. to represent it becomes smaller and smaller, and the number of bits needed to
  168. specify that interval increases.  Successive symbols in the message reduce
  169. this interval in accordance with the probability of that symbol. The more
  170. likely symbols reduce the range by less, and thus add fewer bits to the
  171. message.
  172.  
  173.      1                                             Codewords
  174.     +-----------+-----------+-----------+           /-----\
  175.     |           |8/9 YY     |  Detail   |<- 31/32    .11111
  176.     |           +-----------+-----------+<- 15/16    .1111
  177.     |    Y      |           | too small |<- 14/16    .1110
  178.     |2/3        |    YX     | for text  |<- 6/8      .110
  179.     +-----------+-----------+-----------+
  180.     |           |           |16/27 XYY  |<- 10/16    .1010
  181.     |           |           +-----------+
  182.     |           |    XY     |           |
  183.     |           |           |   XYX     |<- 4/8      .100
  184.     |           |4/9        |           |
  185.     |           +-----------+-----------+
  186.     |           |           |           |
  187.     |    X      |           |   XXY     |<- 3/8      .011
  188.     |           |           |8/27       |
  189.     |           |           +-----------+
  190.     |           |    XX     |           |
  191.     |           |           |           |<- 1/4      .01
  192.     |           |           |   XXX     |
  193.     |           |           |           |
  194.     |0          |           |           |
  195.     +-----------+-----------+-----------+
  196.  
  197.   As an example of arithmetic coding, lets consider the example of two
  198. symbols X and Y, of probabilities 0.66 and 0.33. To encode this message, we
  199. examine the first symbol: If it is a X, we choose the lower partition; if
  200. it is a Y, we choose the upper partition.  Continuing in this manner for
  201. three symbols, we get the codewords shown to the right of the diagram above
  202. - they can be found by simply taking an appropriate location in the
  203. interval for that particular set of symbols and turning it into a binary
  204. fraction. In practice, it is also necessary to add a special end-of-data
  205. symbol, which is not represented in this simpe example.
  206.  
  207.   In this case the arithmetic code is not completely efficient, which is due
  208. to the shortness of the message - with longer messages the coding efficiency
  209. does indeed approach 100%.
  210.  
  211.   Now that we have an efficient encoding technique, what can we do with it?
  212. What we need is a technique for building a model of the data which we can
  213. then use with the encoder.  The simplest model is a fixed one, for example a
  214. table of standard letter frequencies for English text which we can then use
  215. to get letter probabilities.  An improvement on this technique is to use an
  216. *adaptive model*, in other words a model which adjusts itself to the data
  217. which is being compressed as the data is compressed.  We can convert the
  218. fixed model into an adaptive one by adjusting the symbol frequencies after
  219. each new symbol is encoded, allowing the model to track the data being
  220. transmitted.  However, we can do much better than that.
  221.  
  222. Using the symbol probabilities by themselves is not a particularly good
  223. estimate of the true entropy of the data: We can take into account
  224. intersymbol probabilities as well.  The best compressors available today
  225. take this approach: DMC (Dynamic Markov Coding) starts with a zero-order
  226. Markov model and gradually extends this initial model as compression
  227. progresses; PPM (Prediction by Partial Matching) looks for a match of the
  228. text to be compressed in an order-n context.  If no match is found, it
  229. drops to an order n-1 context, until it reaches order 0.  Both these
  230. techniques thus obtain a much better model of the data to be compressed,
  231. which, combined with the use of arithmetic coding, results in superior
  232. compression performance.
  233.  
  234.   So if arithmetic coding-based compressors are so powerful, why are they not
  235. used universally?  Apart from the fact that they are relatively new and
  236. haven't come into general use too much yet, there is also one major concern:
  237. The fact that they consume rather large amounts of computing resources, both
  238. in terms of CPU power and memory.  The building of sophisticated models for
  239. the compression can chew through a fair amount of memory (especially in the
  240. case of DMC, where the model can grow without bounds); and the arithmetic
  241. coding itself involves a fair amount of number crunching.
  242. There is however an alternative approach, a class of compressors generally
  243. referred to as *substitutional* or *dictionary-based compressors*.
  244.  
  245.  Substitutional Compressors
  246.  --------------------------
  247.  
  248.   The basic idea behind a substitutional compressor is to replace an
  249. occurrence of a particular phrase or group of bytes in a piece of data with a
  250. reference to a previous occurrence of that phrase.  There are two main
  251. classes of schemes, named after Jakob Ziv and Abraham Lempel, who first
  252. proposed them in 1977 and 1978.
  253.  
  254. <The LZ78 family of compressors>
  255.  
  256.   LZ78-based schemes work by entering phrases into a *dictionary* and then,
  257. when a repeat occurrence of that particular phrase is found, outputting the
  258. dictionary index instead of the phrase.  There exist several compression
  259. algorithms based on this principle, differing mainly in the manner in which
  260. they manage the dictionary.  The most well-known scheme (in fact the most
  261. well-known of all the Lempel-Ziv compressors, the one which is generally (and
  262. mistakenly) referred to as "Lempel-Ziv Compression"), is Terry Welch's LZW
  263. scheme, which he designed in 1984 for implementation in hardware for high-
  264. performance disk controllers.
  265.  
  266. Input string: /WED/WE/WEE/WEB
  267.  
  268. Character input:    Code output:    New code value and associated string:
  269.     /W                  /                   256 = /W
  270.     E                   W                   257 = WE
  271.     D                   E                   258 = ED
  272.     /                   D                   259 = D/
  273.     WE                  256                 260 = /WE
  274.     /                   E                   261 = E/
  275.     WEE                 260                 262 = /WEE
  276.     /W                  261                 263 = E/W
  277.     EB                  257                 264 = WEB
  278.     <END>               B
  279.  
  280.   LZW starts with a 4K dictionary, of which entries 0-255 refer to individual
  281. bytes, and entries 256-4095 refer to substrings.  Each time a new code is
  282. generated it means a new string has been parsed.  New strings are generated
  283. by appending the current character K to the end of an existing string w.  The
  284. algorithm for LZW compression is as follows:
  285.  
  286.   set w = NIL
  287.   loop
  288.       read a character K
  289.       if wK exists is in the dictionary
  290.           w = wK
  291.       else
  292.           output the code for w
  293.           add wK to the string table
  294.           w = K
  295.   endloop
  296.  
  297.   A sample run of LZW over a (highly redundant) input string can be seen in
  298. the diagram above.  The strings are built up character-by-character starting
  299. with a code value of 256.  LZW decompression takes the stream of codes and
  300. uses it to exactly recreate the original input data.  Just like the
  301. compression algorithm, the decompressor adds a new string to the dictionary
  302. each time it reads in a new code.  All it needs to do in addition is to
  303. translate each incoming code into a string and send it to the output.  A
  304. sample run of the LZW decompressor is shown in below.
  305.  
  306. Input code: /WED<256>E<260><261><257>B
  307.  
  308. Input code:        Output string:     New code value and associated string:
  309.     /                  /
  310.     W                  W                      256 = /W
  311.     E                  E                      257 = WE
  312.     D                  D                      258 = ED
  313.     256                /W                     259 = D/
  314.     E                  E                      260 = /WE
  315.     260                /WE                    261 = E/
  316.     261                E/                     262 = /WEE
  317.     257                WE                     263 = E/W
  318.     B                  B                      264 = WEB
  319.  
  320.   The most remarkable feature of this type of compression is that the entire
  321. dictionary has been transmitted to the decoder without actually explicitly
  322. transmitting the dictionary.  At the end of the run, the decoder will have a
  323. dictionary identical to the one the encoder has, built up entirely as part of
  324. the decoding process.
  325.     LZW is more commonly encountered today in a variant known as LZC, after
  326. its use in the UNIX "compress" program.  In this variant, pointers do not
  327. have a fixed length.  Rather, they start with a length of 9 bits, and then
  328. slowly grow to their maximum possible length once all the pointers of a
  329. particular size have been used up.  Furthermore, the dictionary is not frozen
  330. once it is full as for LZW - the program continually monitors compression
  331. performance, and once this starts decreasing the entire dictionary is
  332. discarded and rebuilt from scratch.  More recent schemes use some sort of
  333. least-recently-used algorithm to discard little-used phrases once the
  334. dictionary becomes full rather than throwing away the entire dictionary.
  335.  
  336. Finally, not all schemes build up the dictionary by adding a single new
  337. character to the end of the current phrase. An alternative technique is to
  338. concatenate the previous two phrases (LZMW), which results in a faster
  339. buildup of longer phrases than the character-by-character buildup of the
  340. other methods.  The disadvantage of this method is that a more sophisticated
  341. data structure is needed to handle the dictionary.
  342.  
  343. [A good introduction to LZW, MW, AP and Y coding is given in the yabba
  344. package. For ftp information, see question 2 in part one, file type .Y]
  345.  
  346.  
  347. <The LZ77 family of compressors>
  348.  
  349.   LZ77-based schemes keep track of the last n bytes of data seen, and when a
  350. phrase is encountered that has already been seen, they output a pair of
  351. values corresponding to the position of the phrase in the previously-seen
  352. buffer of data, and the length of the phrase.  In effect the compressor moves
  353. a fixed-size *window* over the data (generally referred to as a *sliding
  354. window*), with the position part of the (position, length) pair referring to
  355. the position of the phrase within the window.  The most commonly used
  356. algorithms are derived from the LZSS scheme described by James Storer and
  357. Thomas Szymanski in 1982.  In this the compressor maintains a window of size
  358. N bytes and a *lookahead buffer* the contents of which it tries to find a
  359. match for in the window:
  360.  
  361.   while( lookAheadBuffer not empty )
  362.       {
  363.       get a pointer ( position, match ) to the longest match in the window
  364.           for the lookahead buffer;
  365.  
  366.       if( length > MINIMUM_MATCH_LENGTH )
  367.           {
  368.           output a ( position, length ) pair;
  369.           shift the window length characters along;
  370.           }
  371.       else
  372.           {
  373.           output the first character in the lookahead buffer;
  374.           shift the window 1 character along;
  375.           }
  376.       }
  377.  
  378.   Decompression is simple and fast:  Whenever a ( position, length ) pair is
  379. encountered, go to that ( position ) in the window and copy ( length ) bytes
  380. to the output.
  381.  
  382.   Sliding-window-based schemes can be simplified by numbering the input text
  383. characters mod N, in effect creating a circular buffer.  The sliding window
  384. approach automatically creates the LRU effect which must be done explicitly in
  385. LZ78 schemes.  Variants of this method apply additional compression to the
  386. output of the LZSS compressor, which include a simple variable-length code
  387. (LZB), dynamic Huffman coding (LZH), and Shannon-Fano coding (ZIP 1.x)), all
  388. of which result in a certain degree of improvement over the basic scheme,
  389. especially when the data are rather random and the LZSS compressor has little
  390. effect.
  391.   Recently an algorithm was developed which combines the ideas behind LZ77 and
  392. LZ78 to produce a hybrid called LZFG.  LZFG uses the standard sliding window,
  393. but stores the data in a modified trie data structure and produces as output
  394. the position of the text in the trie.  Since LZFG only inserts complete
  395. *phrases* into the dictionary, it should run faster than other LZ77-based
  396. compressors.
  397.  
  398. All popular archivers (arj, lha, zip, zoo) are variations on the LZ77 theme.
  399.  
  400. ------------------------------------------------------------------------------
  401.  
  402. Subject: [71] Introduction to MPEG (long)
  403.  
  404.  
  405. Written by Mark Adler <madler@cco.caltech.edu>.
  406.  
  407. Q. What is MPEG?
  408. A. MPEG is a group of people that meet under ISO (the International
  409.    Standards Organization) to generate standards for digital video
  410.    (sequences of images in time) and audio compression.  In particular,
  411.    they define a compressed bit stream, which implicitly defines a
  412.    decompressor.  However, the compression algorithms are up to the
  413.    individual manufacturers, and that is where proprietary advantage
  414.    is obtained within the scope of a publicly available international
  415.    standard.  MPEG meets roughly four times a year for roughly a week
  416.    each time.  In between meetings, a great deal of work is done by
  417.    the members, so it doesn't all happen at the meetings.  The work
  418.    is organized and planned at the meetings.
  419.  
  420. Q. So what does MPEG stand for?
  421. A. Moving Pictures Experts Group.
  422.  
  423. Q. Does it have anything to do with JPEG?
  424. A. Well, it sounds the same, and they are part of the same subcommittee
  425.    of ISO along with JBIG and MHEG, and they usually meet at the same
  426.    place at the same time.  However, they are different sets of people
  427.    with few or no common individual members, and they have different
  428.    charters and requirements.  JPEG is for still image compression.
  429.  
  430. Q. Then what's JBIG and MHEG?
  431. A. Sorry I mentioned them. Ok, I'll simply say that JBIG is for binary
  432.    image compression (like faxes), and MHEG is for multi-media data
  433.    standards (like integrating stills, video, audio, text, etc.).
  434.    For an introduction to JBIG, see question 74 below.
  435.  
  436. Q. Ok, I'll stick to MPEG.  What has MPEG accomplished?
  437. A. So far (as of January 1992), they have completed the "Committee
  438.    Draft" of MPEG phase I, colloquially called MPEG I.  It defines
  439.    a bit stream for compressed video and audio optimized to fit into
  440.    a bandwidth (data rate) of 1.5 Mbits/s.  This rate is special
  441.    because it is the data rate of (uncompressed) audio CD's and DAT's.
  442.    The draft is in three parts, video, audio, and systems, where the
  443.    last part gives the integration of the audio and video streams
  444.    with the proper timestamping to allow synchronization of the two.
  445.    They have also gotten well into MPEG phase II, whose task is to
  446.    define a bitstream for video and audio coded at around 3 to 10
  447.    Mbits/s.
  448.  
  449. Q. So how does MPEG I work?
  450. A. First off, it starts with a relatively low resolution video
  451.    sequence (possibly decimated from the original) of about 352 by
  452.    240 frames by 30 frames/s (US--different numbers for Europe),
  453.    but original high (CD) quality audio.  The images are in color,
  454.    but converted to YUV space, and the two chrominance channels
  455.    (U and V) are decimated further to 176 by 120 pixels.  It turns
  456.    out that you can get away with a lot less resolution in those
  457.    channels and not notice it, at least in "natural" (not computer
  458.    generated) images.
  459.  
  460.    The basic scheme is to predict motion from frame to frame in the
  461.    temporal direction, and then to use DCT's (discrete cosine
  462.    transforms) to organize the redundancy in the spatial directions.
  463.    The DCT's are done on 8x8 blocks, and the motion prediction is
  464.    done in the luminance (Y) channel on 16x16 blocks.  In other words,
  465.    given the 16x16 block in the current frame that you are trying to
  466.    code, you look for a close match to that block in a previous or
  467.    future frame (there are backward prediction modes where later
  468.    frames are sent first to allow interpolating between frames).
  469.    The DCT coefficients (of either the actual data, or the difference
  470.    between this block and the close match) are "quantized", which
  471.    means that you divide them by some value to drop bits off the
  472.    bottom end.  Hopefully, many of the coefficients will then end up
  473.    being zero.  The quantization can change for every "macroblock"
  474.    (a macroblock is 16x16 of Y and the corresponding 8x8's in both
  475.    U and V).  The results of all of this, which include the DCT
  476.    coefficients, the motion vectors, and the quantization parameters
  477.    (and other stuff) is Huffman coded using fixed tables.  The DCT
  478.    coefficients have a special Huffman table that is "two-dimensional"
  479.    in that one code specifies a run-length of zeros and the non-zero
  480.    value that ended the run.  Also, the motion vectors and the DC
  481.    DCT components are DPCM (subtracted from the last one) coded.
  482.  
  483. Q. So is each frame predicted from the last frame?
  484. A. No.  The scheme is a little more complicated than that.  There are
  485.    three types of coded frames.  There are "I" or intra frames.  They
  486.    are simply a frame coded as a still image, not using any past
  487.    history.  You have to start somewhere.  Then there are "P" or
  488.    predicted frames.  They are predicted from the most recently
  489.    reconstructed I or P frame.  (I'm describing this from the point
  490.    of view of the decompressor.)  Each macroblock in a P frame can
  491.    either come with a vector and difference DCT coefficients for a
  492.    close match in the last I or P, or it can just be "intra" coded
  493.    (like in the I frames) if there was no good match.
  494.  
  495.    Lastly, there are "B" or bidirectional frames.  They are predicted
  496.    from the closest two I or P frames, one in the past and one in the
  497.    future.  You search for matching blocks in those frames, and try
  498.    three different things to see which works best.  (Now I have the
  499.    point of view of the compressor, just to confuse you.)  You try using
  500.    the forward vector, the backward vector, and you try averaging the
  501.    two blocks from the future and past frames, and subtracting that from
  502.    the block being coded.  If none of those work well, you can intra-
  503.    code the block.
  504.  
  505.    The sequence of decoded frames usually goes like:
  506.  
  507.    IBBPBBPBBPBBIBBPBBPB...
  508.  
  509.    Where there are 12 frames from I to I (for US and Japan anyway.)
  510.    This is based on a random access requirement that you need a
  511.    starting point at least once every 0.4 seconds or so.  The ratio
  512.    of P's to B's is based on experience.
  513.  
  514.    Of course, for the decoder to work, you have to send that first
  515.    P *before* the first two B's, so the compressed data stream ends
  516.    up looking like:
  517.  
  518.    0xx312645...
  519.  
  520.    where those are frame numbers.  xx might be nothing (if this is
  521.    the true starting point), or it might be the B's of frames -2 and
  522.    -1 if we're in the middle of the stream somewhere.
  523.  
  524.    You have to decode the I, then decode the P, keep both of those
  525.    in memory, and then decode the two B's.  You probably display the
  526.    I while you're decoding the P, and display the B's as you're
  527.    decoding them, and then display the P as you're decoding the next
  528.    P, and so on.
  529.  
  530. Q. You've got to be kidding.
  531. A. No, really!
  532.  
  533. Q. Hmm.  Where did they get 352x240?
  534. A. That derives from the CCIR-601 digital television standard which
  535.    is used by professional digital video equipment.  It is (in the US)
  536.    720 by 243 by 60 fields (not frames) per second, where the fields
  537.    are interlaced when displayed.  (It is important to note though
  538.    that fields are actually acquired and displayed a 60th of a second
  539.    apart.)  The chrominance channels are 360 by 243 by 60 fields a
  540.    second, again interlaced.  This degree of chrominance decimation
  541.    (2:1 in the horizontal direction) is called 4:2:2.  The source
  542.    input format for MPEG I, called SIF, is CCIR-601 decimated by 2:1
  543.    in the horizontal direction, 2:1 in the time direction, and an
  544.    additional 2:1 in the chrominance vertical direction.  And some
  545.    lines are cut off to make sure things divide by 8 or 16 where
  546.    needed.
  547.  
  548. Q. What if I'm in Europe?
  549. A. For 50 Hz display standards (PAL, SECAM) change the number of lines
  550.    in a field from 243 or 240 to 288, and change the display rate to
  551.    50 fields/s or 25 frames/s.  Similarly, change the 120 lines in
  552.    the decimated chrominance channels to 144 lines.  Since 288*50 is
  553.    exactly equal to 240*60, the two formats have the same source data
  554.    rate.
  555.  
  556. Q. You didn't mention anything about the audio compression.
  557. A. Oh, right.  Well, I don't know as much about the audio compression.
  558.    Basically they use very carefully developed psychoacoustic models
  559.    derived from experiments with the best obtainable listeners to
  560.    pick out pieces of the sound that you can't hear.  There are what
  561.    are called "masking" effects where, for example, a large component
  562.    at one frequency will prevent you from hearing lower energy parts
  563.    at nearby frequencies, where the relative energy vs. frequency
  564.    that is masked is described by some empirical curve.  There are
  565.    similar temporal masking effects, as well as some more complicated
  566.    interactions where a temporal effect can unmask a frequency, and
  567.    vice-versa.
  568.  
  569.    The sound is broken up into spectral chunks with a hybrid scheme
  570.    that combines sine transforms with subband transforms, and the
  571.    psychoacoustic model written in terms of those chunks.  Whatever
  572.    can be removed or reduced in precision is, and the remainder is
  573.    sent.  It's a little more complicated than that, since the bits
  574.    have to be allocated across the bands.  And, of course, what is
  575.    sent is entropy coded.
  576.  
  577. Q. So how much does it compress?
  578. A. As I mentioned before, audio CD data rates are about 1.5 Mbits/s.
  579.    You can compress the same stereo program down to 256 Kbits/s with
  580.    no loss in discernable quality.  (So they say.  For the most part
  581.    it's true, but every once in a while a weird thing might happen
  582.    that you'll notice.  However the effect is very small, and it takes
  583.    a listener trained to notice these particular types of effects.)
  584.    That's about 6:1 compression.  So, a CD MPEG I stream would have
  585.    about 1.25 MBits/s left for video.  The number I usually see though
  586.    is 1.15 MBits/s (maybe you need the rest for the system data
  587.    stream).  You can then calculate the video compression ratio from
  588.    the numbers here to be about 26:1.  If you step back and think
  589.    about that, it's little short of a miracle.  Of course, it's lossy
  590.    compression, but it can be pretty hard sometimes to see the loss,
  591.    if you're comparing the SIF original to the SIF decompressed.  There
  592.    is, however, a very noticeable loss if you're coming from CCIR-601
  593.    and have to decimate to SIF, but that's another matter.  I'm not
  594.    counting that in the 26:1.
  595.